home *** CD-ROM | disk | FTP | other *** search
/ Ian & Stuart's Australian Mac: Not for Sale / Another.not.for.sale (Australia).iso / hold me in your arms / Media Lab / Papers / Managing Deviant Behaviour < prev    next >
Text File  |  1993-12-30  |  9KB  |  171 lines

  1.            APPROACHES TO MANAGING DEVIANT BEHAVIOR
  2.                 IN VIRTUAL COMMUNITIES
  3.  
  4.                        
  5.             Amy Bruckman (organizer and panelist)
  6.        MIT Media Lab.  20 Ames St., MIT E15-315a, Cambridge, MA  02139.
  7.               E-mail:  asb@media.mit.edu
  8.                        
  9.                Pavel Curtis (panelist)
  10.       Xerox PARC.  3333 Coyote Hill Road, Palo Alto, CA  94304.
  11.             E-mail:  pavel@PARC.xerox.com
  12.                        
  13.                Cliff Figallo (panelist)
  14. Former Director of The WELL.  33 Roque Moraes Ct. #7, Mill Valley, CA  94941.
  15.                  E-mail:  fig@eff.org
  16.                        
  17.               Brenda Laurel (moderator)
  18.     Interval Research.  1801 Page Mill Road, Palo Alto, CA  94304.
  19.              E-mail:  laurel@interval.com
  20.  
  21.  
  22.  
  23. ABSTRACT
  24. It is an unfortunate fact of life that where there are multi-user computer
  25. systems, there will be antisocial behavior.  On bulletin board systems (BBSs),
  26. there are those who persist in being obscene, harassing, and libelous.  In
  27. virtual worlds such as MUDs, there are problems of theft, vandalism, and
  28. virtual rape.
  29.  
  30. Behavior is "deviant" if it is not in accordance with community standards.
  31. How are such standards developed?  Should standards be established by system
  32. administrators and accepted as a condition of participation, or should they be
  33. developed by community members?  Once a particular person's behavior is deemed
  34. unacceptable, what steps should be taken?  Should such steps be taken by
  35. individuals, such as "filters" or "kill" files on BBSs, and "gagging" or
  36. "ignoring" on MUDs?  Or should the administrators take action, banning an
  37. individual from the system or censoring their postings?  What is the
  38. appropriate balance between centralized and decentralized solutions? (Figure
  39. 1-- omitted in plain text version).
  40.  
  41. Gags and filters are computational solutions to deviant behavior.  Are there
  42. appropriate social solutions?  How effective are approaches like feedback from
  43. peers, community forums, and heart-to-heart chats with sympathetic system
  44. administrators?  Are different approaches effective with communities of
  45. different sizes?  What is the appropriate balance between social and
  46. technological solutions?
  47.  
  48. KEYWORDS: Community, standards, behavior, social versus technological
  49. approaches, virtual communities, MUDs, Bulletin Board Systems (BBSs).
  50.  
  51.  
  52. [Figure omitted in plain text version.]
  53.  
  54. Figure 1:  Approaches to Deviant Behavior: Two Continuums
  55.  
  56. POSITION STATEMENTS
  57.  
  58. BRENDA LAUREL, INTERVAL RESEARCH (MODERATOR)
  59. BACKGROUND
  60. Brenda Laurel is a researcher and writer whose work focuses on human-computer
  61. interaction and cultural aspects of technology.  She is a Member of the
  62. Research Staff at Interval Research Corporation in Palo Alto, California.  She
  63. is editor of the book, The Art of Human-Computer Interface Design
  64. [Addison-Wesley 1990] and author of Computers as Theatre [Addison-Wesley 1991;
  65. 2nd edition 1993].
  66.  
  67. POSITION
  68. In rural Nova Scotia, some say, one small community deals with socially
  69. unacceptable behavior in a novel way.  They put a live lobster on the
  70. offender's back.  It can only be removed with the help of others.  The
  71. technique is said to promote intensive individual learning and a high degree
  72. of social conformity.
  73.  
  74. It is likely that virtual communities will be at least as diverse-culturally,
  75. demographically, ethically, and politically-as actual communities.  What are
  76. some potential means for virtual communities to deal with "antisocial"
  77. behavior?  How effective are they?  What are the tradeoffs involved in various
  78. "solutions"-for example, how do they affect the character of a community and
  79. the rights of individuals?  In terms of both problems and solutions, how are
  80. virtual and actual communities different, and how are they the same?
  81.  
  82. AMY BRUCKMAN, MIT MEDIA LAB
  83. BACKGROUND
  84. Amy Bruckman is a doctoral candidate at the Media Lab at MIT, where she
  85. founded MediaMOO, a text-based virtual reality environment or "MUD" designed
  86. to be a professional community for media researchers.  Amy received her
  87. master's degree from the Media Lab's Interactive Cinema Group in 1991.  For
  88. her dissertation, she is creating a MUD for kids called MOOSE Crossing.  MOOSE
  89. Crossing is designed to provide an authentic context for kids to learn
  90. reading, writing, and programming.
  91.  
  92. POSITION
  93. In computer-based communities, it is tempting to throw technological solutions
  94. at social problems.  Someone programmed virtual guns?  Delete them.  Got an
  95. obnoxious user?  Cancel their account.  I will argue that social solutions are
  96. often more effective and also help to reinforce a sense of community.
  97.  
  98. I have had success with a psychoanalytic approach to dealing with problem
  99. users.  Someone who is causing trouble probably wants attention.  A heart to
  100. heart chat with a sympathetic system administrator can often solve the
  101. problem.
  102.  
  103. Technological interventions are rarely more than a band-aid for social
  104. problems.  However, social solutions require time, effort, and leadership.
  105. Being able to take the time to engage each problem user in a dialogue is a
  106. luxury that comes from having a small community size.  Larger communities
  107. necessarily become bureaucracies; in a real sense, they cease to be
  108. communities at all.  I will propose a model of clusters of small, affiliated
  109. communities and sub-communities as a structure for preventing and managing
  110. social problems.
  111.  
  112. PAVEL CURTIS, XEROX PARC
  113. BACKGROUND
  114. Pavel Curtis has been a member of the research community at the Xerox Palo
  115. Alto Research Center since 1983, during which time he has worked on
  116. programming environments and on other projects mostly related to the design
  117. and implementation of programming languages.  His current work centers on the
  118. Social Virtual Reality project, investigating the implementation,
  119. applications, and implications of systems that allow multiple simultaneous
  120. users to communicate and interact in pseudo-physical surroundings.  He is the
  121. founder and chief administrator of LambdaMOO, one of the most popular
  122. recreational social virtual realities on the Internet.
  123.  
  124. POSITION
  125. For behavior to be deemed "deviant," it must by definition deviate from some
  126. accepted norm.  Who defines the norms in any given society and how are those
  127. norms communicated to newcomers?  In LambdaMOO (an online community on the
  128. Internet), there are a number of mechanisms through which the community as a
  129. whole can decide upon "the rules" and communicate those decisions to all.
  130. I'll discuss the origins and evolution of some of those mechanisms.
  131.  
  132. Hand-in-hand with establishing behavioral norms, societies decide how to cope
  133. with members or visitors who violate those norms.  I will argue that we should
  134. distinguish two broad categories of deviants and craft separate policies for
  135. dealing with them.  Finally, I will describe some of the coping mechanisms
  136. suggested by LambdaMOO users, including some that have been implemented and
  137. applied in practice.
  138.  
  139. CLIFF FIGALLO, THE WELL
  140. BACKGROUND
  141. Cliff Figallo was Managing Director of the Whole Earth Lectronic Link (the
  142. WELL) during six of its first seven formative years, and has worked as Online
  143. Communications Coordinator for the Electronic Frontier Foundation.  He is
  144. currently consulting in the field of online communications.  Before becoming
  145. involved in online community activities, Cliff spent twelve years living and
  146. working in an intentional "real life" community called the Farm.
  147.  
  148. POSITION
  149. On the WELL, system managers sought to nurture a community where free speech
  150. was the norm and where all users felt safe to express themselves.  System
  151. managers took care not to publicly exercise power in ways that might inhibit
  152. open group interaction.  By encouraging the formation of core groups of users
  153. who shared their desire for minimal social disruption, management not only
  154. relieved itself of the need to intervene as the authority in minor cases of
  155. disruption, but it also gained the socializing influence of a dispersed
  156. citizenry actively supporting community standards of behavior and passing them
  157. on to new arrivals.
  158.  
  159. Online system managers are easy targets for challengers of authority.  If peer
  160. pressure can be relied on to quell minor disruptive incidents, management can
  161. be more effective as a court of last resort for more incorrigible violators of
  162. social norms.  Management can also be creative in its treatment of disruptive
  163. but non-malevolent users.  Expulsion from the system is, like capital
  164. punishment in Real Life, the most extreme option and, in these new media,
  165. there may well be technical remedies where social ones are lacking.
  166.  
  167.  
  168.  
  169. Copyright of the Association for Computing Machinery, 1994.  
  170. To be presented at CHI'94 in Boston, MA in April 1994.
  171.